Staatliche Regulierung habe geholfen, Hassrede auf Twitter signifikant zurückzudrängen. Das hat eine Studie des Leibniz-Zentrums für Europäische Wirtschaftsforschung (ZEW) ergeben. Demnach seien rund zehn Prozent weniger Hasskommentare auf dem sozialen Netzwerk erschienen als vor dem Netzwerkdurchsetzungsgesetz (NetzDG).
Um die gesetzliche Regulierung potenzieller Hassrede in sozialen Netzwerken tobt seit Jahren eine heftige Debatte. Deutschland war 2017 als weltweit erstes Land vorangeprescht und hatte mit dem NetzDG ein so umstrittenes wie wegweisendes Gesetz vorgelegt. Davon erfasste Online-Dienste müssen ihnen gemeldete Inhalte binnen 24 Stunden entfernen, wenn sie offensichtlich illegal sind, bei anderen rechtswidrigen Inhalten gilt eine Frist von sieben Tagen.
Über die Folgen des Gesetzes auf die Meinungsfreiheit im Netz wird weiterhin gestritten – auch vor dem Hintergrund kommender EU-Gesetze wie dem Digital Services Act, dem die deutsche Regelung teils als Vorbild dient. Eine Evaluierung des Bundesjustizministeriums stellte dem NetzDG noch vor dessen Novellierung insgesamt eine gute Note aus, eine unabhängig durchgeführte Untersuchung warnte hingegen vor Overblocking, also vor zu viel ungerechtfertigt gelöschten Inhalten. Zudem stellte sie die praktische Relevanz des NetzDG im Kampf gegen Hassrede in Frage.
Rechtes Hassbiotop
Zumindest letzteren Einwand könnte die ZEW-Studie nun entkräften. Die Forscherinnen Raphaela Andres und Olga Slivko zogen dazu rund 200.000 Accounts von Twitter-Followern der Rechtsaußen-Partei AfD heran. Aus dieser Ecke kommt messbar die meiste Hassrede, sie eignet sich deshalb besonders gut für solche Untersuchungen. Als Kontrollgruppe diente die österreichische FPÖ und deren Follower. Das Nachbarland taugt gut für einen Vergleich, weil es sprachliche und kulturelle Ähnlichkeiten gibt, dort aber dem NetzDG ähnliche Gesetze fehlten.
Die Forscherinnen luden über zwei Millionen Tweets aus 2016 bis 2019 herunter, um Zeiträume vor und nach dem Inkrafttreten des NetzDG untersuchen zu können. Aus dem Material filterten sie Nachrichten heraus, die Begriffe wie „Islam“, „Migra[tion]“ oder „Flucht“ enthielten. Diese Tweets untersuchten sie automatisiert auf die Toxizität. Jeder der Tweets erhielt dann einen Score zwischen 0 und 1. Nachrichten mit einem Score von 0,5 oder höher galten als potenzielle Hassrede. Seit dem NetzDG ging der Studie zufolge die Anzahl solcher Tweets in Deutschland durch die Bank zurück, besonders bemerkbar habe sich dies bei Attacken auf die Identität gemacht.
Auch die „Hassintensität“ sei zurückgegangen, im Unterschied zu Österreich. Trotz gewisser Spill-over-Effekte habe sich dort seit dem NetzDG die Verteilung hin zu mehr extremen Tweets verschoben, während in Deutschland insgesamt weniger stark hasserfüllte Inhalte als früher gepostet wurden. Dies spiegle sich auch in absoluten Zahlen wider. Seit der NetzDG-Einführung sei die Anzahl „massiv toxischer“ Tweets um acht Prozent gefallen, solche mit „Identitätsattacken“ um elf Prozent. Da sich polarisierende Inhalte zudem schneller verbreiten als langweilige, habe die bessere Moderation auch zu entsprechend weniger Retweets und damit geringerer Sichtbarkeit von Hasskommentaren geführt, heißt es in der Studie.
Schädliche Effekte abgeschwächt
Zahlreiche Untersuchungen belegen inzwischen, dass Hass im Netz ein ernstzunehmendes Problem ist. Insbesondere bei marginalisierten und deshalb oft angegriffenen Gruppen, etwa Migrant:innen, LGBTQ-Personen oder Frauen, kann es zum Rückzug aus dem digitalen Raum führen, wenn sie online ungebremst attackiert werden. Die Gewalt kann auch als sogenannter „stochastischer Terrorismus“ in den Offline-Bereich überschwappen oder, im Extremfall, gar Genozide befeuern.
Lange sperrten sich die Betreiber der Online-Plattformen gegen Forderungen nach besserer Moderation, Twitter etwa rechtfertigte seine Untätigkeit gegen Hassrede mit der Verteidigung der Meinungsfreiheit. Erst als sich der öffentliche Druck nicht mehr länger wegwischen ließ, gelobten sie Besserung. Doch statt staatlicher Eingriffe ziehen sie bis heute Selbstregulierung und private Gemeinschaftsregeln vor.
Das alleine reiche allerdings nicht aus, schreiben die Autorinnen: Die Anreize für die Betreiber seien schwach, selbst ein „optimales Niveau“ bei der Inhaltemoderation zu erreichen. „Tatsächlich könnte es für die Plattformen optimal sein, extreme Inhalte auf dem Dienst zu belassen, um ihre Nutzer:innenbasis und werbegetriebene Profite zu vergrößern“, heißt es in der Studie.
Umgekehrt würden die Ergebnisse der Untersuchung nahelegen, dass die schädlichen Effekte von Online-Hass abgeschwächt werden könnten, wenn die Online-Dienste stark angereizt werden, rasch auf Meldungen von Hassrede zu reagieren. Seit dem NetzDG drohen davon erfassten Anbietern Geldbußen, wenn sie gegen die Auflagen verstoßen. Verhängt wurden solche Strafen erst zwei Mal, allerdings nicht aufgrund nachlässiger Moderation: Facebook versteckte aus Sicht des Bundesamts für Justiz unrechtmäßig das Meldeformular und legte zudem unvollständige Transparenzberichte vor.
Bessere Meldewege gefordert
Hier sieht die ZEW-Studie noch Potenzial für Verbesserungen. Die Meldewege seien zu komplex, so müssten Nutzer:innen etwa den korrekten Gesetzesparagraphen angeben, wenn sie Hassrede melden möchten. Das könnte abschreckend wirken, schließlich ist der Prozess langwierig und nicht alle sind juristisch ausgebildet.
Auch müssten weitere Studien potenzielle Overblocking-Effekte genauer untersuchen, selbst wenn die Autorinnen keine Hinweise darauf gefunden haben wollen: Abseits der zurückgegangenen Anzahl von Hasspostings rund um Migration und Religion habe sich kein dämpfender Effekt des NetzDG oder eine Verhaltensänderung von Twitter-Nutzer:innen nachweisen lassen. Das NetzDG scheint also laut der Studie, trotz aller Kritik, wirksam gegen Hassrede zu sein.
Da muss man sich fragen, ob es das Gesetz wert ist für gerade einmal 10% auch die negativen Auswirkungen in Kauf zu nehmen. Darunter auch andere Staaten, die sich am NetzDG orientieren um eine Zensurinfrastruktur zu schaffen (siehe Türkei). Letztlich sind 10% weniger Hasskommentare für Lesende kaum spürbar, auch wenn es in realen Zahlen ausgedrückt wahrscheinlich eine erhebliche Menge darstellt.
Anders wäre das natürlich, wenn die Tendenz steigend ist. Das geht aus dem Artikel zumindest nicht hervor. Aber auch dann gilt muss man sich fragen, ob es kein milderes Mittel gibt.
Zudem halte ich die Studie nicht für unangreifbar. Sind Hasskommentare in Deutschland wirklich aufgrund des NetzDG zurückgegangen oder spielen andere Gründe vielleicht auch hinein? Österreich mag viele Gemeinsamkeiten haben, aber auch einige nicht irrelevante Unterschiede, welche die Studie verfälschen könnten. Auch könnten die hassverbreitenden Menschen vermehrt andere Plattformen nutzen oder ihre Wortwahl so anpassen, dass sie von der KI eher unter 0,5 eingestuft werden, inhaltlich aber genauso toxisch sind (z.B. durch Zweideutigkeit). Also abwarten, ob andere Studien dieses Ergebnis validieren können. Es sind noch einige Fragen offen.
Ich betreibe selbst ein Online-Forum und konsequentes und vor allem zeitnahes Löschen von z.B. beleidigenden Beiträgen führt mittelfristig recht schnell zu einer spürbaren Abnahme solcher Beiträge.
Das ist auch logisch: Wenn die Leute merken, daß ihre Beleidigungen innerhalb von wenigen Minuten wieder weg sind, dann ist das Tippen der Kommentare Zeitverschwendung. Dann überlegen sich die Leute doch nochmal, ob sie die Beleidigung nicht einfach weglassen.
Bei Twitter ist natürlich das Problem, dass die Beiträge sehr kurz sind, d.h. die Kosten für den Nutzer niedrig – und ein Tweet nach wenigen Stunden seine Relevanz verloren hat. D.h. wenn es 24 oder 48 Stunden zum Löschen braucht, dann reicht das für die Verbreitung.
Ich finde es ist eine sehr verengte Sicht, Hass auf „Islam“, „Migra[tion]“ oder „Flucht“ zu reduzieren bzw. erschließt sich mir nicht, wieso (nur) diese Begriffe gewählt wurden.
Ein Rückgang kann doch hier auch daran liegen, dass diese Themen 2019 nicht mehr so im Fokus standen wie 2016.
„Unerwünschte Nebenwirkungen wie Overblocking oder eine Verhaltungsänderung normaler Twitter-Nutzer:innen ließen sich in der Studie nicht nachweisen.“
Das wurde ja offensichtlich nicht untersucht. Dann kann man natürlich nichts nachweisen.
Hallo Jan,
Vielen Dank für das Interesse an der Studie. Um Missverständnisse aus dem Weg zu räumen, möchte ich mich zu deinen Punkten äußern:
Alle Effekte in der Studie sind im Vergleich zu Österreich und halten gemeinsame Zeitverläufe rechnerisch konstant. Wenn wir außerdem in einem Plausibilitätscheck die Einführung des Gesetzes künstlich auf einen anderen Zeitpunkt setzen, finden wir keine statistisch signifikanten Effekte mehr. Daher ist es sehr unwahrscheinlich, dass die Ergebnisse nur darauf zurückzuführen sind, dass in Deutschland weniger über Migration und Religion gesprochen wurde. Die Einschränkung auf diese Themen (durch 10 Buzzwords, die im Text genannten sind nur Beispiele) haben wir aus statistischen und technischen Gründen vorgenommen, da Hassrede insgesamt doch zum Glück recht selten vorkommt und andere Untersuchungen gezeigt haben, dass sie in diesem Twitter-Segment weiter verbreitet ist.
Overblocking konnten wir leider nicht untersuchen, da wir nicht über die Text der gelöschten Tweets verfügen. Das ist ein großes Manko und es ist unbedingt notwendig, dass Overbklocking analysiert wird! Wir finden, unsere Studie ist trotzdem ein wichtiger Schritt – denn wenn das Gesetz nicht mal zu einer Verringerung von Hassrede führen würde, müsste man es nicht weiter diskutieren.
Overblocking ist exakt das: Demokratiegefährdend.
Es stellt eine erzwungene Reduktion der Meinungsfreiheit dar, „zufällig“ genau eben im politisch relevanten, „kritischen“ Bereich ….